künstliche Intelligenz: Abschied von einer Illusion

künstliche Intelligenz: Abschied von einer Illusion
künstliche Intelligenz: Abschied von einer Illusion
 
Wenn der Mensch forscht, dann folgt er, so scheint es auf den ersten Blick, seinem eigenen Antrieb — insbesondere seiner Neugier —, handfesten Interessen nach Prestige, Karriere und Reichtum oder fest umrissenen Aufträgen von Anwendern. Es gibt jedoch auch andere, nichtökonomische, kulturell geprägte Einflüsse, die bestimmend für sein Handeln sein können.
 
Die Forschung, die seit den Fünfzigerjahren unter dem Etikett »künstliche Intelligenz« (KI) betrieben wird, ist ein besonders prägnantes Beispiel hierfür. Die KI nimmt viele Motive und Fragen auf, die den denkenden und forschenden Menschen seit alters bewegen: Was ist der Mensch? Wie ist er entstanden? Wie können sich so verschiedene »Dinge« wie Körper und Geist in einem Subjekt vereinigen? Wie wirken sie zusammen? Was macht den menschlichen Geist aus? Ist es dieser Geist, der ihn vom Tier unterscheidet? Was ist Bewusstsein?
 
 Die Geschichte eines Menschheitstraums
 
Schon die antiken Denker hatten mit philosophischen Mitteln um diese Fragen gerungen. Ihre Gedanken wurden mit der beginnenden Neuzeit, die sich als Wiedergeburt der Antike verstand, und mehr noch mit dem Aufschwung von Naturwissenschaft und Technik im Zeitalter der Aufklärung wieder aufgenommen, wobei die neugewonnenen empirischen Methoden halfen, das Studium dieses Problemkreises erstmals auf ein naturwissenschaftliches Fundament zu stellen.
 
So bemühten sich beispielsweise die Universalwissenschaftler René Descartes und Gottfried Wilhelm Leibniz im 17. Jahrhundert, ihre philosophischen Erkenntnisse mathematisch und naturwissenschaftlich zu begründen. Descartes erklärte den menschlichen Körper als Automaten und glaubte in der Zirbeldrüse auch den Sitz der Seele gefunden zu haben. Leibniz begab sich als Erster auf die Suche nach einer universalen Sprache, die unzweideutig alles Wissen der Welt auszudrücken und damit alle Fragen sicher zu beantworten gestatten sollte, ohne jedoch zu einem schlüssigen Ergebnis zu gelangen. Viele Vertreter der heutigen KI verstehen sich als späte Verwirklicher dieses Leibniz'schen Traums.
 
Die Idee des künstlichen Menschen fand auch in der belletristischen Literatur, besonders in der des achtzehnten und neunzehnten Jahrhunderts, reichhaltigen Niederschlag; stellvertretend für die vielen Werke, in denen oftmals eine charakteristische Mischung aus Faszination und Unbehagen an diesem Motiv zum Tragen kommt, können E.T. A. Hoffmanns Erzählung »Der Sandmann« von 1817 oder, mit seinen zahlreichen Varianten noch ungleich populärer, der Roman »Frankenstein« von Mary Wollstonecraft-Shelley (1818) genannt werden.
 
Die Idee, den Bauplan des menschlichen Geistes oder gar des Menschen überhaupt aufdecken zu können, um ihn dann nachzubauen, bewegt auch heute noch viele Forscher verschiedenster Disziplinen. Während sich beispielsweise die Genforschung und -technik mit der gezielten Manipulation des Lebewesens Mensch durch Eingriffe in sein Erbgut beschäftigt, versucht die künstliche Intelligenz, den menschlichen Geist, von seiner Materie losgelöst, auf dem Computer nachzubilden. Ein bedeutender theoretischer Schritt in diese Richtung wurde in den Dreißigerjahren des zwanzigsten Jahrhunderts durch den Mathematiker Alan Turing getan. Mit dem universellen digitalen Rechner schien ihm ein Mittel bereitzustehen, mit dem man Leibniz' Programm verwirklichen konnte: Denken als Rechnen. Turing ist der Frage »Können Maschinen denken?« in seinem berühmten Aufsatz »Computing machinery and intelligence« von 1950 nachgegangen; er selbst zieht es jedoch vor, sie wegen der unklaren Bedeutung dessen, was »Denken« heißt, durch einen in Ablauf und Auswertung klaren Test, das heute als »Turing-Test« bekannte Experiment, von ihm als »Imitationsspiel« bezeichnet, zu ersetzen. Bei diesem Test muss ein Fragesteller herausfinden, welcher von zwei ihm unsichtbaren, nur über eine Fernschreibleitung verbundenen Kommunikationspartnern ein Mensch und welcher ein Computer ist. Mit diesem Experiment wollte Turing ein Kriterium zur Verfügung stellen, mit dem entschieden werden konnte, ob ein Digitalrechner eine dem Menschen ähnliche intellektuelle Leistung wie etwa Schachspielen oder sprachliche Kommunikation vollbringen kann. Die materielle Realisierung oder die genaue Funktionsweise der Maschine spielt hier bezeichnenderweise keine Rolle: Der Maschine, die den Test besteht, wird die Eigenschaft der Intelligenz zugesprochen. Damit formulierte und initiierte Turing das Forschungsprogramm der KI. Erste konkrete Schritte wurden auf einer Konferenz 1956 in Dartmouth, USA, getan, auf der John McCarthy den Terminus »Artificial Intelligence« prägte.
 
Die KI ist also in ihrem Versuch, den Menschen mit rationalen Mitteln nachzubilden, eingebunden in eine weit zurückreichende kulturelle Tradition. Doch sind die verfolgten Ziele nicht so einheitlich, wie ihre Vorgeschichte vermuten lässt. Schon früh bildeten sich zwei unterschiedliche Richtungen des Interesses heraus.
 
Zum einen entwickelte sich ein ganz neuer Ansatz zur Erforschung der mentalen Leistungen des Menschen, also der natürlichen Intelligenz. Der daraus hervorgegangene Forschungszweig, die Kognitionswissenschaft, hat sich nach etwa zwanzig Jahren als eigene Disziplin zu etablieren begonnen. Ihr geht es heute um die Untersuchung der kognitiven Prozesse des Menschen, ihrer internen Struktur und Funktionsweise, die sie in Analogie zu den Prozessen im Computer beschreibt. Diese Richtung knüpft direkt an die eingangs geschilderte Tradition von Fragestellungen an, versucht also die Fragen nach den dem Menschen eigenen geistigen, insbesondere den kognitiven Fähigkeiten dadurch zu erklären, dass sie ihn gerade in all seinen Alltagsleistungen zu verstehen und nachzubauen versucht. Nicht die an den Hochleistungsrechnern bewunderten speziellen mathematischen Fähigkeiten stehen im Vordergrund, sondern das, was gemeinhin als »gesunder Menschenverstand« oder »Allgemeinwissen« bezeichnet wird, die allgemeinen Problemlösungsfähigkeiten. Geradezu prototypisch dafür ist der Umgang des Menschen mit der Sprache.
 
Demgegenüber bildete sich als ein wesentlich stärker anwendungsbezogener Teil der KI eine Methodologie zur Automatisierung wissensbasierter Arbeitsprozesse heraus. Diese zweite Richtung, deren bekanntestes Ergebnis die Expertensysteme sind, zielte zunächst darauf ab, die Computer so zu programmieren, dass sie menschenähnliche Leistungen hervorbrachten oder gar übertrafen, ohne dass die Art der Erzeugung dieser Leistungen dem menschlichen Verhalten ähneln musste. Dies sollte vornehmlich an der Programmierung intelligenter Spiele erprobt werden.
 
In beiden Forschungszweigen wurden energisch Entwicklungsprogramme gestartet, und es wurde mit einem schnellen Fortschritt gerechnet. Das Schachprogramm wurde von Claude Shannon in Angriff genommen, das Sprachprogramm bald unter dem Titel »automatische Sprachübersetzung« verfolgt.
 
Welche Fortschritte wurden tatsächlich bis heute gemacht? Während Schachweltmeister mittlerweile Schwierigkeiten haben, einem Schachcomputer Paroli zu bieten, sind wir immer noch weit davon entfernt, einem sprachverstehenden Rechner gegenüberzusitzen. Das Schicksal dieser beiden Forschungsprogramme zeigt exemplarisch, was die KI-Forschung in den fast fünfzig Jahren ihrer bisherigen Bemühungen erreichen konnte und wo auch wohl in Zukunft noch ihre Grenzen liegen werden: Mit großer Rechenkapazität (»brute force«) konnten prinzipiell einfache Methoden zu großer Mächtigkeit geführt werden, die Rekonstruktion alltäglicher, aber komplexer »intellektueller« Phänomene blieb jedoch unerreichbar und wird es wohl auch bleiben. Dieser Verlauf der Geschichte der KI hat zu tun mit dem hochfliegenden Anspruch der KI-Forschung der frühen Jahre, ihrem Selbstverständnis und ihrem einseitigen Bild vom Menschen.
 
 Das Bild vom Menschen
 
Lässt sich der menschliche Geist durch Programmierung eines Computers nachbilden? Diese Frage hat einen ethischen Aspekt (»Dürfen wir den Geist überhaupt künstlich nachbilden?«), einen humanwissenschaftlichen (»Sind wir prinzipiell in der Lage, den Geist technisch zu rekonstruieren?«) und einen technischen (»Kann die Programmiertechnik Konzepte zur Realisierung entwickeln?«).
 
Was die prinzipielle Machbarkeit anbelangt, so argumentierten Herbert Simon und Allen Newell in den Fünfzigerjahren mit großem Optimismus im Rahmen ihres kognitionspsychologischen Ansatzes, jedes intelligente System habe eine materielle Grundlage, sei ein »physikalisches Symbolsystem«, und folglich gelte: »Intelligenz kann durch jede Art strukturierbarer Materie realisiert werden.« Dass man Mensch und Computer zu Ausprägungen derselben Art erklärte, machte auch die technische Realisierbarkeit plausibel, wurde aber von manch einem als Provokation empfunden, ließ es doch eine ethische Diskussion gar nicht mehr zu.
 
Eine linguistische Realisierung dieses kognitionspsychologischen Konzepts wurde von Terry Winograd entwickelt, der eines der berühmtesten KI-Programme, ein quasi-natürlichsprachliches System namens »SHRDLU«, vorlegte, das trotz seiner offensichtlichen Beschränkungen — es konnte einen zwar einfachen, aber natürlich anmutenden Dialog über eine Klötzchenwelt führen — als Beweis für die grundsätzliche technische Machbarkeit von KI-Systemen ausgegeben wurde. Schon zuvor hatte der Linguist Noam Chomsky seine automatentheoretisch fundierte generative Grammatik entwickelt, die das theoretische Gegenstück hierzu zu liefern schien. Chomsky unterschied zwischen dem universellen, angeborenen biologischen Vermögen zur Formung von Sprache und Grammatik einerseits und derjenigen sprachlichen Leistung (Performanz) andererseits, deren Eigenarten durch die Beschränkungen des kognitiven Apparats, besonders des Kurzzeitgedächtnisses, zu erklären sind, und der sich die Kognitionswissenschaft widmet.
 
Die KI und der in Anlehnung an die Ideen von Descartes und Humboldt entwickelte Mentalismus Chomskys sind nicht nur etwa zur gleichen Zeit entstanden, sondern hatten auch einen gemeinsamen Antipoden: die seinerzeit dominierende Theorie des Behaviourismus, eine Verhaltenslehre, die die Betrachtung geistig-abstrakter Begriffe als nicht grundlegend und unwissenschaftlich ablehnt und daher alle geistigen Prozesse auf im Grunde simple physiologische Reiz-Reaktions-Schemata zurückzuführen versucht. Dieser Theorie stellte der Mentalismus die Idee eines von der Materie unabhängigen Geistes entgegen; das behaviouristische Paradigma wurde so durch das mentalistische abgelöst.
 
Wie hier bereits anklingt, hat sich bei vielen KI-Forschern wie auch bei einigen der ihnen verbundenen Philosophen, besonders in der amerikanischen Szene, zum Problem der prinzipiellen technischen Reproduzierbarkeit des Geistes eine philosophische Einstellung herausgebildet, die in der Nachfolge von Turing unter der Bezeichnung Funktionalismus zusammengefasst wird. Als drei Grundthesen dieser Strömung können genannt werden:
 
1. Der mentale Bereich des Menschen, der durch Begriffe wie Glauben, Wissen und Bewusstsein eingegrenzt werden kann, muss als grundlegender und eigenständiger Bereich der Realität aufgefasst werden, der nicht auf physiologische oder physikalische Phänomene reduziert werden kann.
 
2. Geistige Prozesse sind funktionale, abstrakte Berechnungsprozesse; die Maschine, die solche Prozesse ausführen kann, simuliert den Geist nicht nur, sondern hat dann auch tatsächlich die Eigenschaft der Intelligenz, sie besitzt also ein Bewusstsein und glaubt etwas. Diese Überzeugung wird als starke KI-These bezeichnet.
 
3. Intelligenz ist in unterschiedlichen Medien realisierbar; oder, anders gesprochen: Der Geist ist nicht an eine bestimmte Art von Materie wie beispielsweise das menschliche Gehirn gebunden, braucht allerdings irgendeine Form von materieller Realisierung, um kausal wirksam zu werden.
 
Meist steht die dritte These im Vordergrund der Diskussion, nicht zuletzt, weil sich eine Variante von ihr (»Körper und Geist verhalten sich zueinander wie Hardware und Software«) auch direkt in Begriffen der Informatik fassen lässt; in dieser Form ist sie besonders innerhalb eines Teils der amerikanischen KI-Gemeinde populär geworden. Wie gesagt: Eine entsprechende Maschine simuliert demnach nicht nur, sondern sie besitzt Geist. Intelligenz wäre also demnach nicht länger ein Privileg des Menschen. Marvin Minsky, weithin als das Sprachrohr der KI geltend, geht sogar so weit, zu behaupten, dass nur die künstliche Intelligenz das Potenzial besitze, sich über den geistigen Entwicklungsstand der menschlichen Spezies hinauszuentwickeln.
 
Wie sind diese Thesen nun zu bewerten? Um es kurz zu machen: Die erste ist wahrscheinlich richtig, die zweite fragwürdig, und die dritte, zumindest in der letztgenannten verkürzten Gestalt, sicher falsch. Wir können hier nicht alle Feinheiten der umfangreichen Diskussion wiedergeben und beschränken uns daher auf eine Betrachtung der dritten These, die darauf beruht, dass Hardware und Software in gleicher Weise wie Körperliches und Geistiges zwei grundverschiedene Dinge darstellen.
 
Diese Voraussetzung ist jedoch falsch: Unter Hardware werden in unserem Zusammenhang physikalisch realisierte Digitalrechner verstanden, deren Kern digitale Schaltungen bilden, in denen Signale in Form von Spannungsverlaufsmustern übermittelt und transformiert werden. Ein solches Signal ist aber primär zunächst keine Information, sondern ein technischer Vorgang. Die inhaltliche Interpretation dieses Signals, dass zum Beispiel »Strom an« mit einem logischen »Wahr« gleichzusetzen ist, legt erst der Hersteller der Schaltung fest, der Mensch. Das wird besonders dann augenfällig, wenn eine Schaltung im Sinne ihrer logischen Funktion »versagt«, obwohl sie doch weiterhin den physikalischen Gesetzen folgt; ein Stromstoß selbst kann nun einmal nicht wahr oder falsch sein. Die prinzipielle Unterscheidung ist also zwischen dem physikalisch-technischen Vorgang des Signals und seiner inhaltlichen Interpretation vorzunehmen, nicht zwischen Hard- und Software. Anders ausgedrückt: Technik ist immer zweckbestimmt, intentional. Wenn also der Mensch intentional definiert, was künstliche Intelligenz sei — wer definierte dann mit welcher Absicht, was unter der natürlichen Intelligenz des Menschen zu verstehen sei?
 
Eine neue Wendung schien die Debatte mit dem Aufkommen des Konnektionismus zu nehmen. Die Idee eines in seiner Struktur dem Gehirn analogen neuronalen Netzes stellte auch die hergebrachte symbolische, also digitale Modellierung der KI infrage, da die Neuronen keine diskreten symbolischen Informationen weiterleiten, sondern ihre Vernetzung ein kontinuierliches, »subsymbolisches« Rechnen bewirkt; doch bleibt das obige Argument weiterhin anwendbar, da auch ein neuronales Netz eine technische Konstruktion ist, dessen Funktionsweise durch den Menschen definiert wird. Es dürfte sich also auch auf längere Sicht als unmöglich erweisen — ungeachtet aller technischen Fortschritte —, die menschliche Intelligenz »nachzubilden« und sie damit über den Begriff der Berechnung zu definieren.
 
Und die ethische Komponente der eingangs dieses Abschnitts gestellten Frage, die Frage also nach Sinn und Zweck einer maschinellen Intelligenz? Die KI-Forschung war von Anfang an nicht nur in ihren selbstgestellten Ansprüchen, sondern auch in dieser Frage umstritten. Die Verfechter der starken KI (KI-Systeme sind intelligent) weisen häufig darauf hin, dass die oft heftige Ablehnung ihrer Thesen letztlich von einer kopernikanischen Kränkung des Menschen herrühre. Wie Kopernikus die Erde aus dem Mittelpunkt der Welt verbannte und damit die Überzeugung des Menschen von seiner Einzigartigkeit erschütterte, so nimmt die KI für sich in Anspruch, die Überzeugung von der Einzigartigkeit der natürlichen Intelligenz des Menschen infrage stellen zu müssen. Zuweilen kehrt sie sogar den Vorwurf des Artenchauvinismus gegen ihre Gegner hervor.
 
Die Heftigkeit, mit der diese Argumente vorgetragen wurden, zeigt, dass die Frage der maschinellen Intelligenz den Menschen in seinem Selbstverständnis berührt. Die Kritik ließ nicht lange auf sich warten. »What Computers Can't Do« war der provokante Titel eines Buchs des Philosophen Hubert Dreyfus, das bereits 1972 das KI-Forschungsprogramm radikal infrage stellte. 1976 erschien Joseph Weizenbaums Buch »Computer Power and Human Reason«, das die Frage nach der Vernünftigkeit und ethischen Vertretbarkeit der KI-Forschung durchweg verneinte. Dreyfus und Weizenbaum veröffentlichten ihre Kritik, als die KI noch kaum praktisch verwendbare Technologie vorweisen konnte, sie sahen den Fehler vielmehr bereits im Forschungsprogramm selbst.
 
Wie auch viele andere KI-Gegner bekämpfen sie die Sichtweise der KI als reduktionistisch, als das Selbstverständnis des Menschen verarmend; ihnen zufolge tendiert die KI dazu, den Menschen nur noch als einen informationsverarbeitenden Automaten, das Gehirn als eine »Fleischmaschine« (Marvin Minsky) zu betrachten, wobei Wert und Würde des spezifisch Menschlichen vernachlässigt werden.
 
So weit die stark ideologisch geprägte Debatte um Anspruch und Selbstverständnis der KI-Forschung. Davon weitgehend losgelöst stellt sich die Frage, welche Perspektiven der KI-Technologie sich im praktischen Einsatz entwickelt haben und in Zukunft entwickeln werden. Hier nun zeigt sich das ganze Ausmaß des Auseinanderklaffens zwischen Anspruch und Realität.
 
 Künstliche Intelligenz als Schlüsseltechnologie?
 
Mit der Prägung des Konzepts des »Knowledge Engineering« setzte Edward Feigenbaum in den Siebzigerjahren erstmals ökonomische Akzente in der Entwicklung der KI. Zwei Erfahrungen lagen dem vor allem zugrunde: Erstens waren die Versuche von Newell und Simon gescheitert, ein kognitives System durch eine kleine Anzahl allgemeiner Mechanismen zu modellieren; zweitens hatte sich an einem vergleichsweise erfolgreichen Spezialprogramm (dem Chemieprogramm »Dendral«) gezeigt, dass durch die Betonung spezialisierten Wissens ein hohes Leistungsniveau der entsprechenden Systeme erreicht werden kann. In Feigenbaums anwendungsorientiertem Konzept bekamen somit die praktischen Fragen des Wissenserwerbs und der Wissenskodierung den höchsten Stellenwert: Die KI wurde zur komplexen Wissenstechnologie.
 
Damit begann eine Entwicklung, die der KI — zumindest vorübergehend — größere Aufmerksamkeit in Wirtschaft und Politik verschaffte. Neben der Gentechnologie wurde sie zeitweise als die Schlüsseltechnologie nicht nur der Datenverarbeitung, sondern der modernen wissensbasierten Industriegesellschaft überhaupt eingeschätzt. Den Auslöser für diese Einschätzung bildete die japanische KI-Forschung mit ihrem »Fifth Generation Project«, das von einer Vereinigung staatlicher Institutionen und industrieller Unternehmen mit großem publizistischen Getöse Anfang der Achtzigerjahre angekündigt wurde.
 
Die USA verstärkten daraufhin ihre Forschungsförderung, in der Europäischen Gemeinschaft wurden große Verbundvorhaben aufgelegt, und in der Bundesrepublik kam die hohe Einschätzung sowohl in der Gründung von mehreren industrienahen KI-Forschungszentren wie auch in der Thematisierung durch die Enquete-Kommission des Bundestags zur Technikfolgenabschätzung zum Ausdruck. Die Zahl der Wissenschaftler in den Fachvereinigungen verzehn- bis verhundertfachte sich, und zahlreiche anwendungsorientierte Spezialkonferenzen entstanden. Begleitet wurde diese Technologiepolitik durch eine Darstellung der KI in den Medien, die sich zwischen Faszination und Verteufelung bewegte und damit nicht selten einen mangelnden Realitätsbezug widerspiegelte. Diese Überschätzung in positiver wie auch in negativer Hinsicht ist nicht zuletzt durch die militante Verfechtung (Feigenbaum) und die scharfe Kritik (Weizenbaum) aus den eigenen Reihen befördert worden.
 
Diese starken externen Entwicklungsfaktoren blieben nicht ohne Wirkung auf die KI selbst. Die Anwendungsforschung ließ die gerade erst angelaufene Grundlagenforschung in den Hintergrund treten. In den Vordergrund gelangten Bereiche, die kommerziell verwertbare Resultate versprachen, insbesondere die Expertensysteme. Im Zuge einer forcierten Kommerzialisierung wurden Konzepte oftmals fehlinterpretiert oder stark simplifiziert, Standardisierungen vielfach an momentanen wirtschaftlich-publizistischen Machtverhältnissen statt an sachlicher Optimierung orientiert. Dies waren die Bedingungen, die die Forschungsaktivitäten in einzelnen Spezialgebieten wie auch das Gesamtbild der KI in den Achtzigerjahren mehr oder weniger stark prägten. Der Rückschlag schien somit vorprogrammiert. Schon zu Ende des Jahrzehnts begannen sich Firmen aus dem nur herbeigeredeten, aber nicht wirklich existenten Markt der Expertensysteme zurückzuziehen. In der Folge wurde die Förderung der KI-Forschung zurückgefahren, die personell umfangreich ausgestatteten Institute mussten sich teilweise umorientieren. Heute hat sich die KI-Technologie eher auf eine Nischenrolle zurückentwickelt, bei der die Expertensysteme nach wie vor eine zentrale Position einnehmen. Anhand der Expertensysteme lassen sich die tatsächlichen Leistungen und möglichen Wirkungen der KI, beispielhaft für andere KI-Anwendungen, erörtern.
 
 Mensch und Maschine in der Praxis: Expertensysteme
 
Als »Expertensysteme« werden Systeme bezeichnet, die solches Wissen datentechnisch speichern und verarbeiten, das auf den Bereich eines Spezialisten beschränkt ist. Während die konventionelle Datenverarbeitung im Wesentlichen einfache Informationen formal beschreibt, wird in der KI, speziell mit diesen Systemen, der Versuch gemacht, auch das Schließen von Fakten auf Fakten nachzubilden, so wie es der menschliche Experte ständig tut. Man spricht dann auch von Wissensverarbeitung. Um Schlüsse ziehen zu können, bedarf es des Wissens über allgemeine Zusammenhänge von Fakten, wie sie beispielsweise physikalische Gesetze oder auch die typischen menschlichen Problemlösungsstrategien — Heuristiken genannt — liefern. Diese Strategien werden in KI-Systemen formalisiert und damit reduziert auf ihre abstrakte Struktur, die dann in Expertensystemen programmierbar ist. Jedes Expertensystem ist also ein mit bestimmten Programmierwerkzeugen und -techniken — der Regelprogrammierung — erstelltes Stück Software. Das Besondere an diesen »wissensbasierten« Systemen ist, dass sie nicht nur ein einzelnes Problem lösen können, sondern Lösungen für eine Klasse von Problemen bereitstellen. Beispiele für solche Anwendungsklassen sind die Diagnose in medizinischen, technischen und ökonomischen Spezialbereichen, so etwa die Bestimmung von Infektionen aus Patientendaten, die Berechnung von Fehlfunktionen in technischen Aggregaten, etwa in Flugzeugen, und die Ermittlung der Kreditwürdigkeit von Bankkunden. Ein weiteres Beispiel sind Planungssysteme, die ein ähnlich breites potenzielles Anwendungsspektrum haben: Planung von Experimenten in der Genetik oder Weltraumforschung, Konfiguration von Rechensystemen, Planung von Investitionen bei Banken.
 
Wo liegen nun die Chancen und Risiken für den praktischen Einsatz solcher Systeme? Hier kommt man nicht umhin, zunächst auf zwei große Problembereiche hinzuweisen.
 
Zum Ersten treten nicht selten Probleme mit der Technik selbst auf: Wie die Erfahrung mit großen Regelmengen inzwischen gezeigt hat, ist die Regelprogrammierung (wie übrigens auch andere KI-Techniken) keineswegs einfacher zu handhaben als die konventionellen Programmiertechniken; dies beruht letztlich darauf, dass wissensbasierte Systeme stärkere Anforderungen an ihre Validierung, also die Überprüfung ihrer Gültigkeit an der Realität, stellen, als dies bei konventioneller Software der Fall ist. Der mangelnde Reifegrad der Systeme liegt allerdings nur zum Teil in den Schwächen der Regelprogrammierung: Nicht die Größe der Wissensbasen wirft die größten Probleme auf, sondern es ist hauptsächlich die Verquickung von Fach- und Kontrollwissen, die Schwierigkeiten bereitet. Hier rächt es sich, dass die Grundlagenforschung zu früh hinter die Anwendungen zurücktreten musste.
 
Zum Zweiten besteht beim betrieblichen Einsatz der Expertensysteme die Gefahr einer prinzipiellen Fehlhaltung des Menschen gegenüber seinem maschinellen Partner: Wegen seiner Fähigkeit zur Analyse wird dem Expertensystem gern die Rolle eines Agens, eines Handelnden, zugeschrieben; es scheint intelligenter als sein Benutzer, man schreibt ihm die komplexe menschliche Fähigkeit zu Reflexion und Entscheidung zu. Die Rolle des Systems wird also überschätzt, wobei gleichzeitig die Verantwortungsbereitschaft seines Benutzers abnimmt. Diesem eklatanten Missverständnis sollte vorgebeugt werden, indem man Expertensysteme eher zur Unterstützung des Spezialisten anstatt als seinen Ersatz nutzt! Erst wenn der Mensch die Maschine als ein Hilfsmittel betrachtet, das ihn auf möglichst »intelligente« Weise bei seinem eigenverantwortlichen Denken und Handeln unterstützt, kann diese gefährlich falsche Einstellung vermieden werden. So scheint es vergleichsweise unproblematisch, bei Fehlerdiagnose, Auftragsplanung und Steuerung einer komplexen Fertigungslinie den menschlichen Experten zu ersetzen, während hingegen die automatische Steuerung und Überwachung risikoreicher Prozesse, etwa in Kernkraftwerken, zu Recht für nicht verantwortbar gehalten wird.
 
Dies sind also die realistischen Einsatzmöglichkeiten heutiger Expertensysteme. Demgegenüber waren die Triebfedern der Industrie bei der (vorübergehenden) Einführung dieser Technologie in der Praxis weitgehend völlig andere: nämlich der große Angebotsdruck, der durch die Propagierung von Automatisierungs- und Technisierungsideologien stark gestützt wird, und die damit zusammenhängende Angst der Anwender, im High-Tech-Wettlauf zurückzubleiben. Die Haupterwartung war jedoch, viele Abläufe rationalisieren zu können, um so besonders im Personalbereich Ausgaben zu sparen: Dem Experten sollten die Routinearbeiten abgenommen werden, die dann durch minder qualifiziertes Personal mithilfe der Expertensysteme erledigt werden sollte.
 
Hier liegt ein offensichtlicher Widerspruch zwischen dem vor, was sich die Anwender von den Expertensystemen erwarteten, und dem, was die Systeme tatsächlich leisten können. In diesem Sinne ist, wie bereits erwähnt, ein echter Markt für Expertensystemwerkzeuge (Schalen, Entwicklungssysteme), nicht zuletzt wegen der erheblichen Schwächen der verfügbaren Werkzeuge, im Moment kaum vorhanden. Man darf dennoch vermuten, dass nach einer längeren Phase der Abklärung der Frage, was praktisch brauchbar ist und was nicht, Expertensystemtechniken als integrale Bestandteile im Instrumentarium der komplexen Informationsverarbeitung, etwa in Informationssystemen, Datenbanksystemen oder Hypertextsystemen, eine steigende Verbreitung finden werden.
 
Und was ist mit dem Anwender der Expertensysteme, dem Spezialisten, dem ein solches System vor die Nase gesetzt wird? Er fürchtet unter Umständen den Verlust seiner Arbeitsstelle, oder zumindest eine Degradierung, und eine Einbuße seiner persönlichen Fähigkeiten dadurch, dass er einen Teil seiner Aufgaben und damit auch seiner Kompetenz an das elektronische System abgeben soll; je nachdem tendiert er auch, wie bereits ausgeführt, dazu, seine Verantwortung an den Computer zu delegieren. Dies kann man durch geeignete Vorbeugungsmaßnahmen verhindern oder zumindest doch abschwächen.
 
Es treten jedoch auch noch ganz andere Risiken auf als die bisher geschilderten, sollten Expertensysteme mit anderen modernen Informations- und Kommunikationstechniken zu großen Verbundsystemen zusammengefasst werden. Wegen der stärkeren Abhängigkeit von den computerisierten Systemen könnten sich die Unzuverlässigkeit der Systeme und die Sabotage durch Dritte zu großen Gefahren entwickeln. Noch schwerwiegender und weitreichender wären jedoch die Auswirkungen auf die Wissenskultur, die sich durch die Veränderung des »Wissenswertesystems« ergeben würde, wenn der Mensch seine Denkweise an die der intelligenten Maschinen anpassen würde: weg vom individuell und kulturell geprägten menschlichen Wissen, das an Verantwortung gebunden ist, hin zu einer stärkeren Betonung der maschinell verwertbaren Information, zu einer unpersönlichen, verflachten und auch ethisch bedenklichen Wissenstechnik. Die menschliche Problemlösungsfähigkeit, Kreativität und Produktivität wären gefährdet.
 
 
Die Vorstellung einer künstlichen Intelligenz hat den Menschen fasziniert und gleichzeitig auch provoziert, seit er sich forschend und denkend um sein eigenes Wesen bemüht.
 
Die KI-Programmatik, wie sie von Alan Turing initiiert wurde, hat jedoch nicht die spektakulären Erfolge gebracht, die immer wieder angekündigt worden sind. Unerreichbar waren und bleiben auch auf absehbare Zukunft unter anderem die künstliche Nachbildung des ganz normalen Alltagswissens (»Common Sense«), die Konstruktion einer logischen Sprache mit dem Anspruch universeller Wissensrepräsentation und die Kommunikation in natürlicher Sprache.
 
Sowohl die Ingenieure der KI wie auch die Kognitionswissenschaftler haben mit einer gewissen Unbekümmertheit ihrer Arbeit philosophische Vorstellungen zugrunde gelegt, die inzwischen gründlich überholt sind, und dies meist auch in recht naiver Weise. Dieses ist einer der Faktoren, die das Auseinanderklaffen von Selbstverständnis und Anspruch auf der einen und den tatsächlichen Leistungen auf der anderen Seite bewirkt haben.
 
Die KI hat sich entsprechend nicht zu einer Schlüsseltechnologie entwickelt — wie man wegen der zentralen Rolle des Wissens in modernen Gesellschaften erwarten sollte — sondern lediglich zu einer Nischentechnologie. Expertensysteme entstehen hier und da für spezielle Anwendungen, spielen aber keine zentrale Rolle in der informationstechnologischen Entwicklung; bei vernünftigem Einsatz — als Unterstützung, nicht als Ersatz des menschlichen Experten — können sie jedoch eine Bereicherung der Arbeitswelt darstellen.
 
Es bleibt also das ernüchternde Fazit zu ziehen, dass die KI zwar, nicht zuletzt wegen ihres stark interdisziplinären Charakters, ihren Platz als Bindeglied zwischen Kognitionswissenschaft und Wissenstechnologie in Forschung, Lehre und Anwendung gefunden hat, aber bei weitem nicht an der herausragenden Position, die sie sich selbst in den kühnen Träumen ihrer Anfangsjahre zugestehen wollte.
 
Prof. Dr. Peter Schefe
 
Grundlegende Informationen finden Sie unter:
 
künstliche Intelligenz: Ein interdisziplinäres Forschungsgebiet
 
 
Cruse, Holk u. a.: Die Entdeckung der Intelligenz oder können Ameisen denken? Intelligenz bei Tieren und Maschinen. München 1998.
 Kurzweil, Raymond: Homo s@piens. Leben im 21. Jahrhundert - was bleibt vom Menschen? Aus dem Englischen. Köln 21999.
 Penrose, Roger: Computerdenken. Des Kaisers neue Kleider oder Die Debatte um künstliche Intelligenz, Bewußtsein und die Gesetze der Physik. Aus dem Englischen. Heidelberg 1991.
 
Probleme der künstlichen Intelligenz. Eine Grundlagendiskussion, herausgegeben von Stephen R. Graubard. Aus dem Englischen. Wien u. a. 1996.
 Randow, Gero von: Roboter. Unsere nächsten Verwandten. Reinbek 1998.
 
Die Technik auf dem Weg zur Seele. Forschungen an der Schnittstelle Gehirn - Computer, herausgegeben vonChrista Maar u. a. Reinbek 1996.
 Vester, Frederic: Neuland des Denkens. Vom technokratischen zum kybernetischen Zeitalter. München 101997.

Universal-Lexikon. 2012.

Игры ⚽ Поможем сделать НИР

Schlagen Sie auch in anderen Wörterbüchern nach:

  • künstliche Intelligenz: Ein interdisziplinäres Forschungsgebiet —   In den letzten Jahrzehnten hat die Computertechnik enorme Fortschritte gemacht, und zweifellos wird man Rechengeschwindigkeit, Speicherkapazität und logisches Design in den kommenden Jahrzehnten noch wesentlich weiter verbessern. Die Computer… …   Universal-Lexikon

  • Parallelrechner: Architekturen, Anwendungen, Entwicklungstrends —   Architekturen von Parallelrechnern   Es gibt eine ganze Reihe von Möglichkeiten, wie mehrere Prozessoren zu einem Parallelrechner zusammengeschaltet werden können; die daraus resultierende Typenvielfalt wird nach dem internen Fluss der Daten… …   Universal-Lexikon

  • Prinzip von Ursache und Wirkung — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Inhalt und Interpretation der unendlichen Geschichte — Dies ist eine ausführliche Inhaltsangabe mit Interpretation des Romans Die unendliche Geschichte von Michael Ende. Das Werk ist ein zugleich märchenhafter, phantastischer und romantischer Bildungsroman[1] und gehört inzwischen zu den neuen… …   Deutsch Wikipedia

  • Antezendenz — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Granger-Kausalität — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Kausal — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Kausalbeziehung — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Kausalgesetz — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

  • Kausalitätskette — Kausalität (lat. causa „Ursache“) bezeichnet die Beziehung zwischen Ursache und Wirkung, betrifft also die Abfolge aufeinander bezogener Ereignisse/Zustände. Die Kausalität (ein kausales Ereignis) hat eine feste zeitliche Richtung, die immer von… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”